L’AI entra in università: gli studenti la usano già, gli atenei rincorrono

L’AI entra in università: gli studenti la usano già, gli atenei rincorrono

In pochi anni l’Intelligenza Artificiale è passata dall’essere un tema da convegno a una presenza silenziosa in ogni aula universitaria.
Non nei corridoi – nei computer portatili degli studenti.

Secondo un’analisi pubblicata da InfoData – Il Sole 24 Ore, la quota di universitari che dichiara di non aver mai usato l’AI per studiare è crollata dal 47% al 12% in un solo anno. Oggi la grande maggioranza degli studenti utilizza strumenti di AI generativa per chiarire i concetti, riassumere articoli, generare idee di ricerca e migliorare la forma dei testi.

La narrativa dominante – “i ragazzi copiano con ChatGPT” – racconta solo una parte, e forse la meno interessante, di quello che sta succedendo.
La verità è che l’AI è già diventata un nuovo dispositivo cognitivo: un’estensione della mente, che entra nella quotidianità dello studio molto prima che le istituzioni decidano cosa farne.

La domanda, quindi, non è più se l’AI debba entrare in università.
È: chi sta guidando questo ingresso – e con quali regole?


Gli studenti l’hanno già normalizzata

I dati raccolti da InfoData mostrano un quadro molto meno apocalittico di quanto si potrebbe pensare. L’uso più frequente dell’AI non è per scrivere tesi al posto proprio, ma per:

  • farsi spiegare concetti complessi con parole più semplici;
  • riassumere testi lunghi (articoli scientifici, capitoli di manuale);
  • generare idee preliminari per progetti e ricerche;
  • fare revisione linguistica di testi già scritti.

La generazione automatica di interi elaborati esiste, certo, ma è molto meno diffusa di quanto racconti l’allarmismo pubblico. L’AI entra nello studio universitario soprattutto come strumento di orientamento, una sorta di tutor digitale che molti studenti sentono più accessibile di un professore sempre di corsa o di un ricevimento affollato.

Se l’università italiana non vuole limitarsi a inseguire, dovrebbe partire da qui: da come gli studenti usano davvero questi strumenti, non da come li immaginiamo.


Atenei tra linee guida, divieti e sperimentazioni

Sul fronte istituzionale qualcosa si muove, ma in ordine sparso.

Alcuni atenei hanno elaborato linee guida strutturate per l’uso dell’AI nella didattica, nella ricerca e nei processi interni: l’Università di Bergamo, per esempio, ha pubblicato un documento che prova a definire criteri di utilizzo responsabile per docenti e studenti, distinguendo tra supporto legittimo, abuso e violazioni dell’integrità accademica.

Altri stanno sperimentando percorsi di ricerca-azione sull’uso dell’AI nella didattica, come il progetto nazionale coordinato dall’Università di Modena e Reggio Emilia, che coinvolge scuole e atenei per capire come integrare davvero questi strumenti nel processo di insegnamento-apprendimento.

A livello più ampio, articoli e analisi come quello pubblicato su Agenda Digitale insistono su un punto: non bastano policy difensive o circolari che dicono “vietato usare ChatGPT”. Serve una governance della conoscenza nell’era dell’AI, che tocchi selezione delle fonti, valutazione delle competenze, revisione dei metodi d’esame e dei criteri di merito.

Eppure, fuori da queste esperienze più avanzate, prevale spesso un mix di:

  • divieti generici (“è proibito l’uso di strumenti di intelligenza artificiale per la stesura degli elaborati…”), difficili da controllare e quasi impossibili da far rispettare;
  • sottovalutazione pratica: nessuna formazione per i docenti, nessuna discussione strutturata con gli studenti, qualche riga nel regolamento d’esame e poco più.

Insomma: mentre gli studenti sperimentano l’AI ogni giorno, molte università la trattano ancora come una parentesi tecnologica che passerà. Non passerà.


AI e ricerca: acceleratore o nuova precarietà?

L’AI non cambia solo la didattica: tocca anche il modo in cui si fa ricerca.

Da un lato, i numeri dell’Istat dicono che la spesa in ricerca e sviluppo in Italia è cresciuta negli ultimi anni, anche nel settore pubblico e nelle università.
Dall’altro, diversi appelli di società scientifiche e reti di ricercatori sottolineano che, con la fine della spinta straordinaria del PNRR, il rischio è un ritorno al sottofinanziamento cronico: si chiede di stabilizzare la spesa per università e ricerca pubblica almeno allo 0,7% del PIL, livello raggiunto nel 2023 grazie ai fondi straordinari, ma non garantito per il futuro.

Nel frattempo migliaia di ricercatori assunti con contratti a termine legati a progetti PNRR guardano al 2026 con incertezza: molti di loro rischiano di rimanere senza prospettive di stabilizzazione proprio mentre l’AI apre nuove linee di ricerca che richiederebbero continuità, tempi lunghi, interdisciplinarità.

Qui l’AI rischia di diventare una sorta di illusione di efficienza: si chiede ai ricercatori di produrre di più, più in fretta, magari usando strumenti automatizzati, senza però affrontare il tema delle condizioni strutturali – finanziamenti, carriere, autonomia scientifica.
È come mettere un motore elettrico su una macchina con il telaio arrugginito: per un po’ va, ma prima o poi qualcosa si spezza.


La vera posta in gioco: non la tecnologia, ma la forma della conoscenza

Molti documenti istituzionali insistono sull’idea che l’AI debba essere un’“opportunità e non un rischio”, uno strumento che accompagna il docente e non lo sostituisce.
Formule rassicuranti, ma la partita è più profonda.

L’AI mette in crisi alcuni pilastri impliciti dell’università:

  • che lo sforzo di scrittura sia di per sé indice di apprendimento;
  • che l’originalità di un elaborato si misuri solo sul prodotto finito e non sul processo;
  • che il valore del docente stia principalmente nel “trasmettere contenuti” e non nel guidare un percorso di ricerca personale.

Se un modello generativo può riassumere, riformulare, suggerire bibliografie di base in pochi secondi, allora cosa significa oggi “studiare”?
E cosa significa, per un’università, “formare”?

L’AI obbliga a spostare il baricentro:

  • meno enfasi sulla riproduzione del già detto,
  • più spazio alla capacità di interrogare, criticare, verificare, collegare.
    Non a caso, alcune linee guida universitarie insistono sulla necessità di insegnare agli studenti a valutare i limiti dell’AI, i bias dei modelli, la qualità delle fonti: non per demonizzare lo strumento, ma per collocarlo dentro una alfabetizzazione critica più ampia.

Cosa potrebbe fare un’università che prende sul serio l’AI

Per uscire dall’alternativa sterile “vietare vs lasciare correre”, un’università che voglia davvero stare al passo potrebbe:

  • Dichiarare apertamente in quali attività l’uso dell’AI è consentito, in quali è regolato e in quali resta vietato, spiegando il perché pedagogico, non solo quello sanzionatorio.
  • Formare docenti e personale non solo sugli strumenti, ma sulle implicazioni etiche, giuridiche e metodologiche.
  • Coinvolgere studenti e ricercatori nella scrittura delle policy, invece di calare regolamenti dall’alto.
  • Ripensare le forme di valutazione: più prove orali, project work, attività di ricerca guidata, lavori di gruppo in cui l’uso dichiarato dell’AI fa parte del percorso e non di una scorciatoia nascosta.
  • Investire in infrastrutture proprie (modelli, piattaforme, repository), per non delegare completamente a grandi piattaforme private la gestione dei dati e dei processi cognitivi.

Una scelta di responsabilità, non di moda

L’Intelligenza Artificiale non è un gadget per rendere le lezioni più “cool”, né un demone da bandire per decreto. È una tecnologia di struttura, destinata a ridisegnare il modo in cui produciamo, trasmettiamo e custodiamo conoscenza.

Gli studenti italiani lo hanno già capito e, nel loro quotidiano, si stanno arrangiando: sperimentano, sbagliano, correggono il tiro.
La domanda è se le università sapranno fare altrettanto – non rincorrendo l’ultimo tool di moda, ma mettendo finalmente al centro la domanda più scomoda:

Che tipo di mente, che tipo di cittadino, che tipo di ricercatore vogliamo formare in un mondo in cui pensare insieme alle macchine è diventata la normalità?

La risposta, qualunque sarà, non può più essere rimandata a una prossima commissione.
Perché l’AI è già in aula. E far finta di niente è, questo sì, il vero atto di irresponsabilità.

Riproduzione riservata © Copyright “The Integrity Times

Related posts

Leave a Comment